AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

SpeechLLM 是否具备像人类一样解释 “为什么” 做出情绪判断的能力?为此,研究团队提出了EmotionThinker—— 首个面向可解释情感推理(Explainable Emotion Reasoning)的强化学习框架,尝试将 SER 从 “分类任务” 提升为 “多模态证据驱动的推理任务”。

来自主题: AI技术研报
7914 点击    2026-02-25 14:28
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于DeepSeek-R1 671B打造了统一的离线推理中枢AdNanny,用单一模型承载所有离线任务。这标志着从维护一系列任务特定模型,转向部署一个统一的、推理中心化的基础模型,从

来自主题: AI技术研报
8369 点击    2026-02-18 13:29
登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

来自上海交通大学、清华大学、微软研究院、麻省理工学院(MIT)、上海 AI Lab、小红书、阿里巴巴、港科大(广州)等机构的研究团队,系统梳理了近年来大语言模型在数据准备流程中的角色变化,试图回答一个业界关心的问题:LLM 能否成为下一代数据管道的「智能语义中枢」,彻底重构数据准备的范式?

来自主题: AI技术研报
7981 点击    2026-02-09 11:12
延迟下降20×,token减少4.4×!突破多智能体「共识」瓶颈

延迟下降20×,token减少4.4×!突破多智能体「共识」瓶颈

延迟下降20×,token减少4.4×!突破多智能体「共识」瓶颈

过去一年,LLM Agent几乎成为所有 AI 研究团队与工业界的共同方向。OpenAI在持续推进更强的推理与工具使用能力,Google DeepMind将推理显式建模为搜索问题,Anthropic则通过规范与自我批判提升模型可靠性。

来自主题: AI技术研报
9661 点击    2026-02-07 14:04
思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

在 LLM 时代,思维链( CoT)已成为解锁模型复杂推理能力的关键钥匙。然而,CoT 的冗长问题一直困扰着研究者——中间推理步骤和解码操作带来了巨大的计算开销和显存占用,严重制约了模型的推理效率。

来自主题: AI技术研报
6983 点击    2026-01-27 16:17
R1一周年,DeepSeek Model 1悄然现身

R1一周年,DeepSeek Model 1悄然现身

R1一周年,DeepSeek Model 1悄然现身

2025 年 1 月 20 日,DeepSeek(深度求索)正式发布了 DeepSeek-R1 模型,并由此开启了新的开源 LLM 时代。在 Hugging Face 刚刚发布的《「DeepSeek 时刻」一周年记》博客中,DeepSeek-R1 也是该平台上获赞最多的模型。

来自主题: AI资讯
10242 点击    2026-01-21 09:51
让Agent记住一切是愚蠢的:SimpleMem用「结构化语义压缩」登顶记忆SOTA

让Agent记住一切是愚蠢的:SimpleMem用「结构化语义压缩」登顶记忆SOTA

让Agent记住一切是愚蠢的:SimpleMem用「结构化语义压缩」登顶记忆SOTA

如果人类的大脑像现在的LLM Agent一样工作,记住每一句今天明天的废话,我们在五岁时就会因为内存溢出而宕机。真正的智能,核心不在于“存储”,而在于高效的“遗忘”与“重组”。

来自主题: AI技术研报
8484 点击    2026-01-15 09:22
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

站在 2026 年的开端回望,LLM 的架构之争似乎进入了一个新的微妙阶段。过去几年,Transformer 架构以绝对的统治力横扫了人工智能领域,但随着算力成本的博弈和对推理效率的极致追求,挑战者们从未停止过脚步。

来自主题: AI技术研报
9200 点击    2026-01-14 15:25
拖拽式搭建分布式Agent工作流!Maze让非技术人员几分钟搞定复杂任务

拖拽式搭建分布式Agent工作流!Maze让非技术人员几分钟搞定复杂任务

拖拽式搭建分布式Agent工作流!Maze让非技术人员几分钟搞定复杂任务

在大模型智能体(LLM Agent)落地过程中,复杂工作流的高效执行、资源冲突、跨框架兼容、分布式部署等问题一直困扰着开发者。而一款名为Maze的分布式智能体工作流框架,正以任务级精细化管理、智能资源调度、多场景部署支持等核心优势,为这些痛点提供一站式解决方案。

来自主题: AI资讯
8410 点击    2025-12-30 15:14